摘要。大型语言模型(LLMS)的进步已经开放了自然语言处理的新边界,尤其是在医疗保健等特殊领域。在本文中,我们提出了基于课程的微调(ICFT)框架,以增强医学大语言模型(MLLM)的发电能力。基于课程的学习,双阶段记忆协调和参数效果,以实现从一般语言知识到强大的领域特定专业知识的逐步过渡。跨不同医学NLP任务的实验结果,包括问题,偏好分类和响应产生,表明ICFT始终超过最先进的基准,从而提高了准确性和效率。进一步的分析揭示了该框架概括不见数据,减少错误并提供各种相关的医学响应的能力。这些发现将ICFT建立为适应LLM的强大和可扩展解决方案,以对现实世界中的医疗保健应用程序造成实际的利益。